information gain - перевод на русский
Diclib.com
Словарь ChatGPT
Введите слово или словосочетание на любом языке 👆
Язык:

Перевод и анализ слов искусственным интеллектом ChatGPT

На этой странице Вы можете получить подробный анализ слова или словосочетания, произведенный с помощью лучшей на сегодняшний день технологии искусственного интеллекта:

  • как употребляется слово
  • частота употребления
  • используется оно чаще в устной или письменной речи
  • варианты перевода слова
  • примеры употребления (несколько фраз с переводом)
  • этимология

information gain - перевод на русский

MEASUREMENT OF HOW ONE PROBABILITY DISTRIBUTION IS DIFFERENT FROM A SECOND, REFERENCE PROBABILITY DISTRIBUTION
Kullback-Leibler distance; Kl-divergence; Kullback-Leibler Distance; Information gain; Principle of Minimum Discrimination Information; KL divergence; Kullback-Liebler distance; Kullback-Leibler divergence; KL-divergence; KL-distance; Kullback divergence; Discrimination information; Kullback-Liebler; Kullback-leibler divergence; Kullback–Leibler distance; Kullback–Leibler entropy; Kullback–Leibler redundancy; Kullback Leibler divergence; KL distance; Kullback information; Kullback–Leibler information; Kullback-Leibler; Kullback-Leibler information; Kullback-Leibler redundancy; Kullback-Leibler entropy; Nkld; Minimum Discrimination Information; K-L divergence; Relative entropy; Population stability index
  • Pressure versus volume plot of available work from a mole of argon gas relative to ambient, calculated as <math>T_o</math> times the Kullback–Leibler divergence.
  • Illustration of the relative entropy for two [[normal distribution]]s. The typical asymmetry is clearly visible.
  • Two distributions to illustrate relative entropy

information gain         

общая лексика

прирост информации

discrimination information         

математика

различающая информация

antenna gain         
  • Diagram illustrating how isotropic gain is defined. The axes represent power density in watts per square meter. <math>R</math> is the radiation pattern of a directive antenna, which radiates a maximum power density of <math>S</math> watts per square meter at some given distance from the antenna. The green ball <math>R_\text{iso}</math> is the radiation pattern of an isotropic antenna which radiates the same total power, and <math>S_\text{iso}</math> is the power density it radiates.  The gain of the first antenna is <math display="inline">{S \over S_\text{iso}}</math>. Since the directive antenna radiates the same total power within a small angle along the z axis, it can have a higher signal strength in that direction than the isotropic antenna, and so a gain greater than one.
TELECOMMUNICATIONS PERFORMANCE METRIC
Absolute gain (physics); Absolute gain (Physics); Total Radiated Power; Aerial gain; Antenna gain

общая лексика

коэффициент усиления антенны

Определение

Аруз
(иначе аруд)

система стихосложения, возникшая в арабской поэзии и распространившаяся в ряде стран Ближнего и Среднего Востока. Теория А., впервые разработанная в трудах арабского филолога Халиля ибн Ахмеда (8 в.), получила развитие у более поздних иранских теоретиков Рашида Ватвата, Шамси Кайса Рази и др. В А. ритмообразующим элементом стиха является определённое чередование долгих и кратких слогов, согласно закону арабской фонетики. Однако вскоре система А. начала применяться не только в языках со сходным звуковым составом (язык фарси), но и в тюркских языках, где гласные не различаются по долготе. Кратким слогом в А. (условное обозначение ∪) считается открытый слог с кратким гласным; долгим (условное обозначение -) - открытый слог с долгим гласным; полуторным (- ∪) - закрытый слог с кратким гласным. Комбинация долгих и кратких слогов образует стопу - основной элемент стиха. Насчитывают до 8 основных стоп:

1. ∪ - -;

2.- ∪ -;

3. ∪ - - -;

4. - - ∪ -;

5.- ∪ - -;

6. ∪ - ∪ -;

7. - ∪ -;

8.- - - ∪;

их различные сочетания дают 19 основным метров, из них 7 с одинаковыми стопами и 12 с разными. Но т. к. любая основная стопа каждого метра может подвергаться разного рода изменениям (зихафы), число вариантов метров значительно возрастает. А. оставался в арабской, персо-таджикской и в ряде тюркских литератур единственной системой стихосложения вплоть до 20 в., когда были сделаны попытки введения новых метров (вольный стих, силлабо-тонический и др.).

Лит.: Крымский А., Арабская литература в очерках и образцах, М., 1911; Корш Ф., Древнейший народный стих турецких племен, СПБ, 1909; Вахид Табризи, Джам'-и мухтасар. Трактат о поэтике, М., 1959; Bloch A., Vers und Sprache im Altarabischen, Basel, 1946; Weil G., Grundriss und System der altarabischen Metren, Wiesbaden, 1958; Ханлери, Парвиз Натель, Тахгиге энтегади дар арузе фарси..., Тегеран, 1327 с. г. х. (1948).

Н. Б. Кондырева.

Википедия

Kullback–Leibler divergence

In mathematical statistics, the Kullback–Leibler divergence (also called relative entropy and I-divergence), denoted D KL ( P Q ) {\displaystyle D_{\text{KL}}(P\parallel Q)} , is a type of statistical distance: a measure of how one probability distribution P is different from a second, reference probability distribution Q. A simple interpretation of the KL divergence of P from Q is the expected excess surprise from using Q as a model when the actual distribution is P. While it is a distance, it is not a metric, the most familiar type of distance: it is not symmetric in the two distributions (in contrast to variation of information), and does not satisfy the triangle inequality. Instead, in terms of information geometry, it is a type of divergence, a generalization of squared distance, and for certain classes of distributions (notably an exponential family), it satisfies a generalized Pythagorean theorem (which applies to squared distances).

In the simple case, a relative entropy of 0 indicates that the two distributions in question have identical quantities of information. Relative entropy is a nonnegative function of two distributions or measures. It has diverse applications, both theoretical, such as characterizing the relative (Shannon) entropy in information systems, randomness in continuous time-series, and information gain when comparing statistical models of inference; and practical, such as applied statistics, fluid mechanics, neuroscience and bioinformatics.

Как переводится information gain на Русский язык